Humanidades

Quem deveria ser responsabilizado pelos erros da inteligência artificial?
Doutorado defendido na Faculdade de Direito da USP aponta as lacunas existentes na atual legislação brasileira e indica caminhos para a responsabilização civil em caso de danos
Por Amanda Nascimento - 11/04/2026


93% das pessoas utilizam ferramentas de IA, conforme uma pesquisa da Fundação Itaú e Datafolha. Ainda não existe uma regulação para a responsabilização dos erros e ações da IA – Foto: Freepik, gerada por IA


O surgimento de casos como os de ferramentas de inteligência artificial (IA) sendo usadas para criação de imagens pornográficas não autorizadas, ou o chatbot que aconselhou um adolescente a tirar a própria vida, impõe novas questões para o sistema judiciário: quem deveria ser responsabilizado pelos danos causados por IAs? Foi essa a pergunta que motivou a pesquisa da advogada Aline Klayse dos Santos Fonseca na Faculdade de Direito (FD) da USP.

Os regimes de responsabilidade civil — obrigação que uma pessoa ou entidade tem de reparar o dano causado a outra — previstos no atual Código Civil e no Código de Defesa do Consumidor não oferecem uma resposta direta. E como sistemas de IA não possuem personalidade jurídica, isto é, não são reconhecidos como capazes de assumir direitos e deveres, não podem ser diretamente penalizados. Partindo deste contexto, Aline Fonseca argumenta que um possível caminho para a responsabilização jurídica está no conceito de “poder tecnológico de autorregramento”: trata-se da ideia de que, como as IAs são algoritmos avançados de automação desprovidos de personalidade jurídica, a responsabilidade seria de quem insere a tecnologia no mercado. 

Primeiro, a tese indica que é necessário identificar se o problema está no sistema de IA ou nos dados utilizados. Caso a falha esteja nos dados, é preciso verificar se eles foram coletados de acordo com a Lei Geral de Proteção de Dados (LGPD); se não, a responsabilidade pode ser atribuída com base na própria legislação. Já, se a origem do erro estiver no treinamento do modelo ou no funcionamento do algoritmo, a resposta estaria na responsabilização dos desenvolvedores de software do sistema. “O Judiciário, os magistrados e os juristas, de modo geral, não podem esperar uma resposta pronta ao se depararem com danos decorrentes do uso de inteligência artificial”, afirma a advogada. 

“É preciso analisar problemas de inteligência artificial considerando toda a multiplicidade de agentes” – Aline Klayse dos Santos Fonseca


No Brasil, ainda que sejam raros os casos envolvendo erros da IA, debates têm avançado no Senado Federal com o Projeto de Lei 2338/2023, conhecido como o Marco Legal da Inteligência Artificial. A proposta, inspirada no AI Act da União Europeia, busca preencher a lacuna jurídica apontada pela advogada e estabelece diretrizes de segurança para o uso da tecnologia — entre elas, a proteção de direitos autorais e a classificação dos sistemas de IA com base em seu grau de risco. 

Este último, explica Aline Fonseca, quando entendido como de alto risco, enquadra-se no que se conhece como responsabilidade objetiva. Na prática, o termo configura a obrigação de reparação de danos sem que haja a necessidade de comprovação de culpa. “Só será necessário provar, no judiciário, que houve uma conduta falha; digamos, um dano e um nexo de causalidade, o que é muito positivo”, diz a advogada. “É uma resposta importante, embora incipiente. Entendo que há algumas lacunas, e a tese traz contribuições nesse sentido”, defende.

Lacunas na responsabilidade civil

A rápida evolução tecnológica de sistemas de inteligência artificial fez com que a pesquisa lidasse com um fluxo contínuo de dados e informações. Quando Aline Fonseca propôs o projeto de pesquisa em 2019, por exemplo, aplicativos como o ChatGPT sequer existiam. “É uma tecnologia que avança muito rápido e como o direito não avança na mesma velocidade, acaba se tornando um desafio”, observa. Assim, como ponto de partida, ela se debruçou sobre os critérios de imputação de responsabilidade civil já existentes no direito brasileiro e questionou se eles seriam suficientes para responsabilizar agentes envolvidos em danos causados pela IA. 

A imprevisibilidade do comportamento de sistemas de IA dificulta a distinção entre danos causados por um sistema defeituoso e aqueles resultantes de seu funcionamento autônomo. A multiplicidade de atores envolvidos na criação e operação desses sistemas — desde desenvolvedores até fornecedores de dados utilizados nos algoritmos — surge como outro desafio do campo de estudo. Em muitos casos, a responsabilidade não recai sobre um único agente. 

Parte desse debate surge com o conceito de responsibility gap, em português, lacuna de responsabilidade, referente à ausência de responsabilização jurídica por danos causados, especialmente em tecnologias emergentes como a IA. Atualmente, a responsabilidade civil está fundamentada em dois elementos: a constatação do ato danoso e de atividades de risco — quando a ação gera perigo à terceiros. No entanto, as classificações existentes no Código Civil não se encaixam nos danos causados pela IA. A investigação indicou a existência de quatro lacunas jurídicas:

1. lacuna de culpabilidade: quando agentes podem estar ligados a um dano, mas têm justificativas legítimas — por exemplo, quando são incapazes de evitar resultados devido a natureza autônoma do sistema;
2. lacuna de responsabilidade moral: dificuldade de compreender e justificar decisões tomadas pelos sistemas, o que pode dificultar na identificação do papel humano nas ações da IA;
3. lacuna de responsabilidade pública: dificuldade de atribuir responsabilidades a agentes ou instituições específicas;
4. lacuna de responsabilidade ativa: quando desenvolvedores ou operadores da tecnologia não têm plena consciência de suas obrigações morais e sociais, o que pode levar ao uso inadequado ou ilegal da tecnologia.

Pensando nisso, a tese defende o poder tecnológico de autorregramento como uma possível resposta para a responsabilização civil associada à IA. “O fato de eu exercer o poder sobre alguém, ou uma tecnologia, pode ser capaz de fundamentar, do ponto de vista jurídico, a responsabilidade civil. Tecnologias, de um modo geral, têm um certo poder sobre a nossa vida, e busquei fundamentar isso em teorias sociológicas”, explica a advogada. 

“Só será necessário provar, no judiciário, que houve uma conduta falha, digamos, um dano e um nexo de causalidade, o que é muito positivo”, explica Aline Fonseca – Foto: Flickr/Ricardo Stuckert/PR

As complexidades da inteligência artificial

Antes de chegarem ao mercado, sistemas de IA passam por testes a fim de determinar seu nível de acurácia. Trata-se de uma etapa importante, uma vez que, ainda que resultados demonstram baixa probabilidade de erro, caso eles se concretizem, as consequências são de grande impacto. “Eles [sistemas de IA] são invenções criadas para cumprir um determinado propósito e não podem escolher para si uma finalidade diferente daquela para a qual foram programados”, afirma Aline Fonseca. “Ainda que qualificados como inteligentes, não são dotados de experiência própria.”

No geral, riscos associados à IA podem ser divididos em dois grandes grupos: aqueles relacionados aos dados, como falhas na coleta ou no tratamento das informações, e aqueles ligados ao modelo, que envolvem o funcionamento do sistema. Nesse contexto, a LGPD aparece como uma diretriz possível para orientar o desenvolvimento e a aplicação dessas tecnologias. A proposta é que agentes públicos e privados responsáveis pela IA sigam seus princípios para assegurar maior segurança jurídica.

Para a pesquisadora, no entanto, o debate não se limita ao campo jurídico. “Você precisa usar a tecnologia de uma maneira ética, respeitando, por exemplo, a confiança das pessoas, porque a médio e longo prazo a gente vai demandar e delegar decisões importantes da nossa vida para tecnologias. E precisamos pintar um cenário tecnológico que reforce a confiança das pessoas nessas tecnologias”, conclui.


A tese de doutorado Imputação e fundamentos da responsabilidade civil extranegocial por danos decorrentes de inteligência artificial deverá ser publicada como livro em 2026.

Mais informações: alineklayse@hotmail.com, com Aline Klayse dos Santos Fonseca.

 

.
.

Leia mais a seguir